Съдия няма да накаже Майкъл Коен за това, че разчита на изкуствен интелект
Съдия от Манхатън в сряда отхвърли да наложи наказания на Майкъл Д. Коен, тогавашният медиатор на някогашния президент Доналд Дж. Тръмп, откакто по простъпка даде на юриста си подправени правни цитати, измислени от Гугъл Bard, стратегия за изкуствен интелект, за предложение, което юристът приготвяше от името на господин Коен.
юрист, Дейвид М. Шварц, цитира подправените случаи в своето искане, което беше заведено във Федералния областен съд.
Съдията, Джеси М. Фърман, сподели, че епизодът е неловко и тъпо, само че той беше приел обяснението на господин Коен, че не схваща по какъв начин работи Гугъл Bard и не искаше да заблуди господин Шварц. Съдията сподели още, че не е открил, че господин Шварц е работил недобросъвестно.
„ Наистина, би било напряко ирационално той да даде подправени случаи, които Шварц да включи в предлагането, знаейки, че са подправени “, написа арбитър Фърман за господин Коен, някогашен юрист, който е лишен от адвокатска дееспособност, като се има поради вероятността господин Шварц, държавното управление или съдът да открият казуса, „ с евентуално съществени неподходящи последствия за самия Коен. “
Проблемът породи при положение на укриване на налози, както и нарушавания на финансирането на акцията, осъществени от господин Коен от името на господин Тръмп. Г-н Коен се призна за отговорен през 2018 година и излежа в пандиза. Той е изискал предварително преустановяване на надзора на съда по делото му, откакто е бил освободен от пандиза и е спазил изискванията на освобождението си.
Съдия Фърман е отказал три по-рано такива претенции от господин Коен. В последното си искане неговият юрист, господин Шварц, уточни, че клиентът му е свидетелствал два дни предходната есен в процеса за гражданска машинация на господин Тръмп в щата Ню Йорк. „ Желанието на господин Коен да излезе напред и да даде правилни разкази “, твърди господин Шварц, „ показва извънредно равнище на разкайване и отдаденост за съблюдаване на закона. “
Но арбитър Фърман сподели, че показанията на господин Коен в щатския развой „ в действителност дават съображение да се отхвърли настояването му, а не да се почете “. Съдията цитира показанията на господин Коен в щатския цивилен развой, в който той призна, че е излъгал във федералния съд, когато се призна за отговорен в укриване на налози, което в този момент той твърди, че не е направил.
Адвокат на господин Коен не отговори незабавно на искане за коментар по отношение на решението на арбитър Фърман.
Г-н. Доверието на Коен ще бъде в основата на първия углавен развой против господин Тръмп, който би трябвало да стартира в средата на април в Манхатън. Г-н Коен, един от звездните очевидци на обвиняването, беше забъркан в договорката за секрети пари в центъра на това дело, заведено от офиса на окръжната прокуратура в Манхатън. Адвокатите на господин Тръмп може да се опитат да се възползват от спорните изказвания на господин Коен по време на процеса за гражданска машинация и евентуално даже от решението на арбитър Фърман, с цел да го нарисуват като измамник. Но офисът на окръжния прокурор евентуално ще се опълчи на това, че господин Коен е споделил доста от предходните си неистини от името на господин Тръмп и че той е разказвал поредна история за договорката за безмълвни пари от години.
Съдията, наблюдаващ процеса за гражданска машинация, Артър Ф. Енгорон, сподели, че намира показанията на господин Коен за „ достоверни “ и наложи съкрушителна присъда от 454 милиона $ на господин Тръмп.
В настояването си да приключи правосъдния контрол на неговия случай господин Коен се опита да помогне на своя юрист, господин Шварц.
господин Коен сподели в клетвена декларация през декември, че не е бил в крайник с „ зараждащите трендове (и обвързваните с тях рискове) в правните технологии и не е осъзнавал, че Гугъл Bard е генеративна текстова услуга, която, сходно на ChatGPT, може да демонстрира цитати и описания, които наподобяват действителни, само че в действителност не бяха. ”
Mr. Коен също сподели, че не е осъзнавал, че господин Шварц „ ще пусне случаите в подаването си на едро, без даже да удостовери, че съществуват. “
Г-н. Коен изиска от арбитър Фърман да прояви „ поверителност и благосклонност “.
Случаят е един от няколкото, които изплуваха във федералния съд в Манхатън през последната година, в които потреблението на изкуственият разсъдък е опетнил правосъдните каузи. В народен мащаб има минимум 15 случая, в които се счита, че юристи или представляващи себе си страни са употребявали чатботове за правни проучвания, които са си проправяли път в правосъдни каузи, съгласно Юджийн Волох, професор по право в U.C.L.A. който е писал за изкуствения разсъдък и закона.
Въпросът избухна в общественото пространство предходната година, откакто арбитър П. Кевин Кастел, също от федералния съд в Манхатън, санкции двама юристи с $5000 откакто признаха, че са изпратили къса информация, цялостна с несъществуващи решения и правни цитати, които са били генерирани от ChatGPT.
Последват поредност от сходни случаи във федералните съдилища в Манхатън. p>
В едно, юрист призна, че цитира „ фиктивен случай “ – Въпрос на Bourguignon против Coordinated Behavioral Health Services, Inc. – който съгласно нея е „ препоръчан от ChatGPT “ след нея личните проучвания не съумяха да доведат до решение в поддръжка на аргумента, който тя правеше. През януари Апелативният съд на Съединени американски щати за Втори окръг я насочи към правосъден състав, който проверява тъжби против юристи.
И в различен случай, арбитър Пол А. Енгелмайер от Федералният областен съд наказа адвокатска адвокатска фирма в Обърн, Ню Йорк, която намерено призна, че е употребила ChatGPT, с цел да поддържа искане за адвокатски възнаграждения в дело против Министерството на образованието на Ню Йорк.
Съдия Енгелмайер сподели, че „ потреблението на ChatGPT от компанията като поддръжка за нейното нападателно предложение за такси е извънредно и извънредно неубедително. “
Случаите акцентират провокациите на юридическата специалност като юристи от ден на ден разчитайте на чатботове за правене на правни информации. Програмите с изкуствен интелект, като ChatGPT и Bard (сега известни като Gemini), генерират реалистични отговори, като вършат догатки за това кои фрагменти от текст би трябвало да следват други последователности.
Mr. В декларацията си Коен написа, че е схванал Бард като „ превъзходна търсачка “, която в предишното е употребявал, с цел да получи точна информация. Случаите, които той откри и съобщи на господин Шварц, наподобява са били „ халюцинации “ – термин, употребен за обозначаване на генерирани от чатбот грешки.
Епизодът стана обществен през декември, когато арбитър Фърман сподели в заповед, че не може да откри нито едно от трите решения, представени от господин Шварц в настояването му. Той подреди на господин Шварц да му даде копия от решенията или „ задълбочено пояснение за това по какъв начин се стигна до настояването да се цитират случаи, които не съществуват, и каква роля, в случай че има такава, е изиграл господин Коен. “
господин Шварц в личната си декларация сподели, че не е прегледал без значение случаите, предоставени от господин Коен, защото господин Коен е показал, че различен юрист му дава оферти за предлагането.
„ Искрено се оправдавам на съда, че не ревизирах персонално тези случаи, преди да ги предам в съда “, написа господин Шварц.
Бари Каминс, юрист на господин. Шварц сподели в сряда: „ Радваме се, че съдът преглежда тази неточност като неточност, която не е направена недобросъвестно от господин Шварц. “
Бен Протес способства за докладването.